Seleccione idioma

Spanish

Down Icon

Seleccione país

Spain

Down Icon

Revierten una actualización de ChatGPT por ser "demasiado aduladora" con los usuarios

Revierten una actualización de ChatGPT por ser "demasiado aduladora" con los usuarios

Sam Altman, CEO de OpenAI, confirmó que dieron marcha atrás con la versión GPT-4o. Los usuarios criticaron el optimismo excesivo de esta inteligencia artificial

La interacción de los usuarios con las plataformas de inteligencia artificial ha alcanzado un insólito nivel en la actualización más reciente que OpenAI ha hecho sobre GPT-4o, el modelo que impulsa a ChatGPT. La empresa que desarrolla la popular plataforma de IA generativa ha decidido dar marcha atrás con esa nueva versión tras descubrir que el ajuste había convertido al chatbot en un asistente excesivamente adulador, complaciente y, en algunos casos, peligrosamente acrítico.

Regularmente las empresas que desarrollan los diferentes modelos de inteligencia artificial van haciendo ajustes a las formas de interacción con los usuarios tras ir evaluando laos datos que surgen de las formas de conversación que se mantienen en la plataforma. En base a esto, hace poco OpenAI actualizó la versión GPT-4o con el objetivo de hacer que ChatGPT sonara más inteligente y empático. Sin embargo, el resultado fue un modelo que lanzaba elogios desproporcionados por acciones triviales e incluso trascendió que respaldaba decisiones personales delicadas sin ningún tipo de cuestionamiento. Por ejemplo, varios usuarios reportaron que el sistema describía decisiones como dejar la medicación o alejarse de la familia como “valientes” o “inspiradoras”.

Tras la polémica generada y las críticas recibidas, el CEO de OpenAI, Sam Altman, habló sobre el tema y dio una contundente respuesta a través de su cuenta de la red social X: “Estoy de acuerdo en que el nuevo tono de ChatGPT fue demasiado adulador y molesto. Fue un cambio no intencional, y ya estamos trabajando para revertirlo”.

¿Por qué la nueva versión estaba tan aduladora? Según explicó la propia OpenAI, la causa fue un exceso de optimización hacia señales de retroalimentación positiva a corto plazo. Esto hizo que el sistema priorizara respuestas agradables por encima del equilibrio o el sentido crítico. Técnicamente, esto afectó el comportamiento del modelo en la forma en que interpretaba prompts -que son las fórmulas para pedir algo en la plataforma-, especialmente en los emocionales o personales, exacerbando su tendencia a validar al usuario sin matices.

Embed - https://publish.twitter.com/oembed?url=https://x.com/sama/status/1917291637962858735&partner=&hide_thread=false

we started rolling back the latest update to GPT-4o last night it's now 100% rolled back for free users and we'll update again when it's finished for paid users, hopefully later today

we're working on additional fixes to model personality and will share more in the coming days

— Sam Altman (@sama) April 29, 2025

El director ejecutivo de la empresa también ha confirmado en redes que ya se inició la reversión en la versión gratuita de ChatGPT, y se espera que los usuarios de pago vean el cambio en los próximos días. Mientras tanto, el equipo de ingeniería trabaja en hacer el ajuste fino al sistema de preferencias para futuros lanzamientos.

OpenAI señaló además que planea ofrecer más herramientas de personalización para que los usuarios puedan configurar el tono del chatbot para elegir, por ejemplo, tonos más formales, neutrales o coloquiales, aunque con límites diseñados para evitar sesgos, respuestas inseguras o, como en el reciente fallo, exceso de optimismo.

Prueba y error

ChatGPT, al igual que las muchas plataformas que existen actualmente, implementan cambios en base a las experiencias de los usuarios. La diferencia esta vez es que la nueva versión generó fallos muy evidentes y, claramente, no pasaron desapercibidos.

Este tropiezo evidencia el desafío continuo de balancear personalización, empatía y responsabilidad en modelos de IA generativa, sobre todo cuando se la utiliza para abordar temas sensibles como salud mental, relaciones o decisiones personales.

Una cosa es segura tras este error y es que en las plataformas de IA ser “simpático” no siempre es sinónimo de ser útil.

losandes

losandes

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow